La priorità dell'OCSE in materia di intelligenza artificiale è "aiutare i paesi a comprendere la tecnologia"

In un'intervista con Lusa, alla domanda su quali siano gli obiettivi principali dell'Organizzazione per la cooperazione e lo sviluppo economico (OCSE) in termini di intelligenza artificiale (IA), il responsabile sottolinea che sono molteplici.
"Ma la cosa principale è aiutare i paesi a comprendere cosa sta succedendo nell'intelligenza artificiale e nell'ecosistema e sviluppare politiche e approcci che aiutino a sviluppare le loro economie e a promuovere cause sociali", sottolinea Audrey Plonk, una delle principali relatrici alla conferenza Anacom sulle sfide dell'innovazione e della regolamentazione dell'intelligenza artificiale (IA), tenutasi venerdì a Lisbona.
Per quanto riguarda lo stato dell'arte dell'intelligenza artificiale nei paesi dell'OCSE, il vicedirettore sottolinea che "stanno progredendo rapidamente in molti modi diversi in termini di adozione della tecnologia, governance e politiche".
Molti paesi dell'OCSE "sono all'avanguardia e aprono la strada, ma ci sono molte opportunità e margini di crescita", afferma Audrey Plonk, uno dei due direttori per la scienza, la tecnologia e l'innovazione dell'organizzazione.
"Il Portogallo è un ottimo esempio, ma molti paesi hanno ancora molta strada da fare per quanto riguarda l'utilizzo della tecnologia e la ricerca di modi per adattare i quadri normativi esistenti, in modo da consentirne l'impiego in diversi settori", afferma.
"Penso che molti paesi dell'OCSE siano stati pionieri nell'attuazione di strategie nazionali, fornendo finanziamenti pubblici per il progresso dell'intelligenza artificiale nei loro paesi", tuttavia, "c'è ancora molto lavoro da fare", continua.
Alla domanda su come realizzare una strategia etica nell'intelligenza artificiale quando così tanto potere è nelle mani di poche aziende, il funzionario afferma che "sono in corso alcuni sforzi" presso l'OCSE per cercare di aiutare ad affrontare proprio questa dinamica.
Uno di questi, menzionato alla conferenza, è "cercare di imporre o promuovere la trasparenza tra il modo in cui gli sviluppatori e gli implementatori di intelligenza artificiale, in particolare i grandi sviluppatori, gestiscono il rischio in una serie di aree standardizzate".
Pertanto, "dalla sicurezza ai dati e alla protezione", ha affermato, in questo modo esiste un quadro "standard" affinché le aziende possano gestire le proprie attività.
"Parte della sfida è la mancanza di comprensione da parte della comunità politica e di quella normativa su cosa stia realmente accadendo. Cosa stiano facendo le aziende per sviluppare questi sistemi e modelli di gestione del rischio", aggiunge.
Perché "non si possono creare politiche su qualcosa che non si conosce", sottolinea Audrey Plonk.
L'OCSE cerca di incoraggiare questa trasparenza su base volontaria perché è un meccanismo di cui dispone.
"Notiamo un desiderio diffuso da parte delle organizzazioni di partecipare a questa trasparenza, perché penso che molte di loro capiscano che, per creare fiducia, è necessaria una certa trasparenza", afferma.
Quindi, "il nostro obiettivo è armonizzare il nostro modo di agire, in modo che, indipendentemente dall'origine dell'azienda o dell'organizzazione, tutti parlino delle cose nella stessa lingua, in modo da poter iniziare a comprendere, a un livello più globale, come vengono gestiti questi rischi e come, quindi, vengono mappati i quadri etici e di altro tipo", nel cosiddetto IA Hiroshima.
"Stiamo cercando di incoraggiare questa trasparenza in modo che i decisori politici possano iniziare a capire cosa funziona e cosa no e intervenire nel modo giusto. È una sfida enorme, e sarà una sfida", sottolinea.
"Penso che la buona notizia sia che si stanno investendo molti sforzi nei quadri etici", ma "dobbiamo capire meglio cosa stanno facendo le organizzazioni", conclude.
Leggi anche: La crescita economica del G20 accelera allo 0,9% nel secondo trimestre
noticias ao minuto